67 - Optimalitätsbedingungen erster Ordnung [ID:34979]
50 von 122 angezeigt

Wir haben im letzten Video verstanden, wann es sich bei einem Minimum um ein lokales oder globales

Minimum handelt und haben auch den Begriff des stationären Punktes eingeführt. Und das haben wir

eigentlich alle Zutaten zusammen, um die Optimalitätsbedingungen erster Ordnung zu formulieren,

die ein notwendiges Kriterium sind, für ein Optimum jedoch kein Hinreichendes. Auch das werden wir

näher diskutieren. Aber wir beginnen damit zu formulieren, was sind denn die notwendigen

Bedingungen erster Ordnung, damit solch ein Optimum vorliegen kann. Das heißt insbesondere,

dass wir dadurch Kandidaten identifizieren können, für ein Optimum jedoch nicht hinreichend sagen

können, es handelt sich wirklich um ein Optimum. Also notwendige Optimalitätsbedingungen, wichtig

erster Ordnung. Die sind im Prinzip auch aus der Schulmathematik bekannt, denn wir werden jetzt

feststellen, dass ein lokales Optimum zumindest ein stationärer Punkt sein muss. Das sagt aber

noch nicht so aus, dass es wirklich ein Optimum sein muss. Es kann sich auch um einen Sattelpunkt

handeln. Und in der Schulmathematik macht man das natürlich mit einer dimensionalen Funktion. Wir

wollen das Ganze hier verallgemeinern auf den R hoch N. Was brauchen wir dafür? Na ja, wir brauchen

wieder unsere offene zusammenhängende Umgebung. Eine offene zusammenhängende Teilmenge. Und wir

brauchen eine Zielfunktion, die von Omega in die reellen Zahlen abbildet. Eine vertige, das ist

jetzt wichtig, stetig partiell differenzierbar muss sie sein. Stetig partiell diffbarer Zielfunktion.

Jetzt nehmen wir an, wir hätten ein lokales Minimum gefunden. Dann können wir sagen, dass die Funktion

in diesem Punkt ein stationärer Punkt der Zielfunktion ist. Genau. In einer Umgebung,

das heißt die Funktion muss nicht überall stetig partiell differenzierbar sein, aber zumindest um

den stationären Punkt herum. In einer Umgebung uTiming R hoch N eines lokalen Minimums. Das

sollten wir vielleicht noch in rot hervorheben. Das ist eine der Annahmen. Dann nennen wir wieder

x Sternchen in dieser Umgebung u. Dann gilt, dass x Sternchen ein stationärer Punkt ist. Und die

Definition haben wir schon kennengelernt. Das bedeutet, dass der Gradient der Zielfunktion in

x Sternchen gleich Null sein muss. Darum sagen wir auch, das sind die notwendigen Bedingungen. Wir

sagen nicht, wenn der Gradient in der Stelle Null ist, dann handelt es sich um ein lokales

Minimum, sondern ganz wichtig, andersherum, wenn es ein lokales Minimum ist, dann ist der Gradient in

dieser Stelle gleich Null. Die Umkehrung gilt im Allgemeinen nicht, aber das werden wir gleich noch

sehen. Und wir werden diese Aussage beweisen, denn wir wollen auch die Konzepte der Taylor-Entwicklung

anwenden, die wir in einem der letzten Videos kennengelernt haben. Der Beweis ist eigentlich

nicht sehr schwierig. Wir führen ihn durch Widerspruch. Beweis durch Widerspruch. Was heißt

das? Naja, wir haben angegeben, dass unsere Voraussetzungen sind, dass wir ein lokales Minimum

haben. Und wir gehen jetzt mal davon aus, dass wir immer noch ein lokales Minimum haben, aber es sich

nicht um einen stationären Punkt handelt. Das ist im Prinzip das, was uns den Widerspruch bringen

wird. Wir nehmen also an, dass x Sternchen lokales Minimum von f sei.

Jedoch, das ist das, was wir brauchen. Wir nehmen jetzt mal an, dass der Gradient von f in der Stelle

x Sternchen ungleich Null sei. Das werden wir dann ausnutzen, um einen Widerspruch herbeizuführen.

Wir wählen jetzt erstmal einen Richtungsvektor, nämlich die negativen Gradienten von f in dem

Punkt x Sternchen. Wir wählen den Richtungsvektor, den nennen wir P aus dem R auch N. Den definieren

wir wie folgt. Wir sagen, der Richtungsvektor P sei für uns der negative Gradient von f in x Sternchen.

Und da wir gesagt haben, der Gradient ist ja ungleich Null in x Sternchen, wissen wir nach

dieser Annahme den Widerspruchsbeweis, dass das schon mal ungleich Null ist. Und wir können uns

das jetzt mal anschauen im Skalarprodukt mit dem Gradienten selber, denn das ist ein Term,

der bei der Taylor-Entwicklung auftauchen wird. Wir sehen folgendes ein. Betrachten wir mal das

Skalarprodukt mit dem neuen Richtungsvektor P und dem Gradienten. Das heißt, wir haben das

Skalarprodukt von P Gradient f im Punkt x Sternchen, also im lokalen Minimum. Jetzt können wir einsetzen,

was wir für P definiert haben. Das ist also minus dem Skalarprodukt Gradient f in x Sternchen mit

sich selbst. Sie wissen, dass es im Prinzip die quadratische Form ist. D.h., daraus bekommen wir,

dass es minus der Norm des Gradienten f in x Sternchen zum Quadrat. Ja, und so eine Norm,

die ist ja immer größer gleich Null. Das ist die positive Definität. Und sie kann nur Null sein,

wenn der Gradient selber Null ist. Wir wissen aber, der Gradient ist nach Voraussetzung ungleich Null.

Zugänglich über

Offener Zugang

Dauer

00:18:33 Min

Aufnahmedatum

2021-06-27

Hochgeladen am

2021-06-27 14:57:59

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen